爲了測試這些AI的"抗壓能力",一羣研究者玩起了"大冒險"。他們搞了一個叫Self-Contradictory Instructions(SCI)的測試,簡直就是AI界的"死亡挑戰"。這個測試包含了20,000個自相矛盾的指令,涵蓋了語言和視覺兩大領域。比如,給你看一張貓咪照片,卻讓你描述這隻"狗"。這不是爲難人嗎?哦不,是爲難AI。